CENTRO CULTURAL SAN FRANCISCO SOLANO

Cuando OpenAI lanzó ChatGPT en el otoño de 2022, la IA generativa se hizo global, ganando un millón de usuarios en días y 100 millones en meses. A medida que el mundo comenzó a lidiar con la importancia de la IA, los responsables políticos preguntaron: La inteligencia artificial cambiará el mundo o la destruirá? AI democratizaría el acceso a la información, o se utilizaría para difundir rápidamente la desinformación? Cuando sea utilizado por los militares, podría ser utilizado para desovar robots asesinos que hacen que las guerras sean más fáciles de librar?

Technólogos y burócratas lucharon para encontrar maneras de entender y pronosticar el impacto generativo de IA. Qué otros logros tecnológicos revolucionarios combinaron la esperanza del avance humano con los peligros persistentes de la destrucción masiva de la sociedad? El análogo obvio eran las armas nucleares. En cuestión de meses, algunos de los principales científicos en aprendizaje automático firmaron una carta que afirmaba que el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala de la sociedad, como las pandemias y la guerra nuclear. Elon Musk fue más allá, afirmando que la IA representa un riesgo significativamente mayor que las armas nucleares. El secretario general de Naciones Unidas, António Guterres, propuso crear un equivalente al Organismo Internacional de Energía Atómica para promover el uso seguro de la tecnología de IA, mientras que el consejero delegado de OpenAI, Sam Altman, ha sugerido una Comisión Reguladora Nuclear para AI, similar a la agencia que regula el funcionamiento de las centrales nucleares en Estados Unidos.

Si bien la analogía nuclear ofrece algunas lecciones para mitigar los riesgos de los sistemas de inteligencia artificial, las diferencias entre las dos tecnologías son más significativas que las similitudes. A diferencia de las armas nucleares, el desarrollo de la IA es difuso, abarcando decenas de empresas y países, lo que hace mucho más difícil reducir su propagación.

Para hacer frente a los desafíos únicos de los sistemas avanzados de IA generalizados, los encargados de formular políticas pueden comenzar estudiando los intentos de elaborar controles en otros ámbitos con tecnologías emergentes o peligrosas, como el ciberespacio, el espacio ultraterrestre y las armas biológicas. En lugar de tratar de bloquear el desarrollo de IA, los responsables de la formulación de políticas deberían centrarse principalmente en la elaboración de normas para un comportamiento responsable. Podrían incluir medidas específicas que podrían incluir a los principales agentes que se comprometen a limitar el uso de la IA en las operaciones de influencia, exigir a las empresas que realicen evaluaciones de riesgos y que los países sean responsables de las actividades de sus entidades comerciales derivadas de los éxitos en otras esferas, en las que los encargados de formular políticas lograron contener el impacto de tecnologías peligrosas. Las naciones adversarias pueden compartir tecnologías para mejorar la seguridad de la IA de maneras similares a cómo los estadounidenses y los soviéticos compartieron experiencia que restringió el acceso a las armas nucleares.

Más diferente que por igual. A pesar de todas las diferencias, existe una semejanza afortunada para quienes esperan controlar las armas nucleares y la IA: El desarrollo de ambos se basa en un proceso tecnológico definido. Las entradas físicas de finito son necesarias para crear tanto una explosión nuclear como un modelo de lenguaje grande. La creación de una reacción nuclear se basa en el enriquecimiento de uranio a través de centrifugadoras, o el reprocesamiento del combustible gastado para extraer plutonio. Del mismo modo, el entrenamiento y despliegue de un modelo avanzado de IA requiere el uso de chips avanzados de IA o unidades de procesamiento de gráficos (GPUs). Sin estos insumos, no puede haber bombas nucleares de producto final o modelos de IA. Así como pocos estados poseían los medios para enriquecer o reprocesar el combustible nuclear a escala industrial, pocos actores tienen actualmente acceso al cóute necesario para construir modelos de IA, con los Estados Unidos y China controlando más de los tercios del suministro mundial.

Pero aquí es donde terminan las similitudes importantes. La marcada distinción entre programas nucleares civiles y militares, que no tiene ningún análogo para la IA, hace que los esfuerzos de no proliferación sean mucho más fáciles. Mientras que la tecnología nuclear es de doble uso, las reacciones nucleares pueden crear energía o explosiones, sigue habiendo líneas duras entre el uso pacífico y el militar. Las instalaciones de energía nuclear pueden manejar con seguridad combustible nuclear a través de reactores sin enriquecer uranio a plutonio a grado de bomba o reprocesar, los dos procesos exclusivos de la fabricación de bombas que no tienen ningún propósito pacífico. Es por ello que Estados Unidos mantiene acuerdos de energía nuclear con casi 50 países que pretenden prevenir la proliferación, donde sus homólogos reciben combustible nuclear y lo atraviesan a través de reactores de agua ligera, pero acuerdan no enriquecer ni utilizar reactores de agua pesada. En cambio, ninguna capacidad estrecha o la de modo separa los sistemas de IA pacíficas y dañinas. El mismo sistema que ayuda a los científicos a sintetizar nuevos compuestos de fármacos también podría ayudar a un terrorista a fabricar neurotoxinas, mientras que una plataforma que ayuda a las empresas a escribir rápidamente correos electrónicos masivos podría generar fácilmente desinformación para botnets.

RELACIONADOS:

Los humanos deberían enseñar a IA cómo evitar la guerra nuclear, mientras que todavía pueden

 

Aunque se pueden hacer esfuerzos para prevenir la difusión y transferencia de tecnología nuclear a otros agentes, la naturaleza digital de los modelos de IA dificulta cualquier restricción análoga. Ayudar a otro país a desarrollar un programa nuclear indígena o transferir armas ya de fabricación no es tarea pequeña. El gran movimiento de activos como reactores, combustible, centrifugadoras y científicos a través de las fronteras es relativamente fácil de notar. La dificultad se suma al número relativamente pequeño de estados nucleares, con sus capacidades bajo el microscopio de agencias de inteligencia de todo el mundo. La entrega de un arma nuclear requiere montarla en un misil o la entrega a través de un avión, que los regímenes de control de las exportaciones, como el límite del Régimen de Control de Tecnología de Misiles. En cambio, una vez que se desarrolla y se libera abiertamente un modelo de IA, se puede hacer muy poco para evitar su uso y proliferación generalizados. Las barrocones comunes que se colocan en los sistemas de IA son fáciles y barasosas de eliminar el modelo y proporcionarle datos peligrosos adicionales, lo que significa que incluso las empresas que invierten fuertemente en seguridad y no liberan abiertamente sus modelos pueden proporcionar pocas garantías a los encargados de adoptar decisiones de seguridad nacional.

El aumento de este problema es la relativa descentralización de la industria de la IA, redilada no sólo por un púbculo de estados mayoritariamente ricos, sino en todo el sector privado. Incluso si los gobiernos promulgan duras restricciones a la IA, carecen de un monopolio sobre las fichas, el talento y los conocimientos científicos necesarios para construir modelos avanzados de IA. En 2023, 51 modelos notables de aprendizaje automático fueron construidos por empresas de todo el mundo, mientras que sólo dos fueron construidos por los gobiernos. Con la inversión en IA en un máximo histórico, los incentivos para encontrar lagunas en los controles gubernamentales nunca han sido mayores, como lo demuestra la elusión reiterada de Nvidia de los controles de exportación de semiconductores estadounidenses.

Clases de aprendizaje. Después de inventar la capacidad de destruir a toda la humanidad, la comunidad global logró impedir el uso y la propagación de las armas más mortales del mundo. Los responsables políticos de hoy sólo pueden esperar tener una fracción del éxito en controlar la IA como sus predecesores tenían en la era nuclear.

Como muestra el siguiente gráfico, las armas nucleares y la IA tienen muchas similitudes: ambos presentan riesgos catastróficos, son tecnologías de doble uso con usos pacíficos y violentos, y surgieron en un contexto de gran competencia de poder.

SIMILARIDADES

DIFERENCIAS

Armas nucleares y AI

Sólo AI

... representan riesgos catastróficos.

... es el propósito general.

... son de doble uso.

... no está muy regulado.

... tiene gran ventaja.

... tiene ventajas que no plateau.

... condujo a carreras de armamentos.

... está descentralizado.

... puede causar destrucción mutua asegurada.

... a menudo está abiertamente disponible.

... ten aplicaciones militares.

... todavía no ha causado muertes masivas.

... represente riesgo de un error de cálculo.

... está dirigida por el sector privado.

... puede causar la revolución en la guerra.

... se ve reforzado por la tecnología emergente.

... son tecnologías en rápida evolución.

... puede parecerse a la inteligencia humana.

... puede ser adquirido por terceros.

... se está viendo mucho más barato.

 

Los responsables políticos que tratan de aprovechar la analogía nuclear de la IA deben proseguir el diálogo con las naciones adversarios y las medidas de seguridad universales para las tecnologías de doble uso. Así como Estados Unidos y la Unión Soviética lograron evadir la catástrofe nuclear a través del diálogo, también los Estados Unidos y China pueden evitar los resultados más catastróficos de la IA. Aunque Estados Unidos y China no tienen el monopolio absoluto sobre la IA que los Estados Unidos y la Unión Soviética tenían sobre las armas nucleares, sí tienen la posición de polo, con la gran mayoría de la potencia informática del mundo, permitiendo a las dos potencias decidir qué controles deben colocarse en los sistemas avanzados de IA.

Las negociaciones también pueden allanar el camino para que los Estados Unidos y China compartan tecnologías para mejorar la seguridad de la IA. En la era nuclear, los estadounidenses compartían tecnología con la Unión Soviética conocida como enlaces de acción permisivas, que restringían el acceso a las armas nucleares mediante el bloqueo criptográfica de armas. El ex asesor adjunto de Seguridad Nacional Jason Matheny ha dicho: "Con nuestros competidores, necesitamos encontrar efectivamente el vínculo de acción permisiva para AI. Esa es una tecnología de seguridad que usted querría que sus competidores utilizaran al igual que usted quiere que usted mismo la utilice.

Imaginando alternativas. Las armas nucleares no son la única metáfora que los responsables de la formulación de políticas pueden aprovechar. Investigadores de la Universidad de Cambridge sugieren 55 analogías diferentes para la IA, argumentando que la naturaleza sin precedentes de la tecnología requiere obtener información de campos a través de la ciencia, la política y la ley. Por qué no extraer, por ejemplo, lecciones de campos altamente regulados (como aviación, finanzas y productos farmacéuticos), regulación en la intersección de la ciencia y los materiales peligrosos (como la bioseguridad), o tecnologías emergentes en las que los actores han negociado acuerdos internacionales con el telón de fondo de la competencia de gran potencia (como el espacio exterior y cibernético)? Ninguna analogía es completa, pero este es precisamente nuestro punto: Los analistas deben reconocer las formas en que la IA no es análoga a nada que hayamos visto antes en muchos aspectos críticos.

RELACIONADOS:

La corta marcha a la bomba de hidrógeno de China

 

Un aspecto de la IA que se puede controlar es el compuesto de un número finito de los países, lo que hace que las GPUs sean lo suficientemente potentes como para entrenar modelos avanzados de IA. Las restricciones tecnológicas pueden limitar quién puede construir estos modelos, ya que hacerlo es muy intensivo en recursos. Un régimen para gobernar aplicaciones peligrosas de IA podría tener como objetivo controlar quién puede construir modelos de vanguardia. Pero si y cuando se desarrollen esos modelos, evitar que sean capaces de mal uso (o de difundirse) será casi imposible debido a la naturaleza del software. Muchos modelos sólo una generación detrás de la vanguardia están disponibles libremente para su descarga en línea. Los responsables políticos deben extraer dos lecciones de ámbitos alternativos.

Primero, incluso cuando las tecnologías no pueden contenerse, los comportamientos estatales pueden verse limitados. Considere cibernético: Estados Unidos y China no pueden detenerse mutuamente de adquirir la capacidad de llevar a cabo ciberataques, sin embargo, en 2015 los presidentes Obama y Xi se comprometieron a no usar operaciones cibernéticas ofensivas para robar propiedad intelectual. Estados Unidos y China deberían emitir una declaración conjunta similar acordando limitar el uso de la IA en operaciones de influencia.

Asimismo, siempre existirán capacidades militares en los mares y en el espacio ultraterrestre que representen amenazas a otros países. Los acuerdos para limitar su uso ofrecen precedentes útiles para la gobernanza de la IA. Por ejemplo, el Acuerdo de Incidentes entre Estados Unidos y el Sínvio del Mar restringe los comportamientos militares, como operar en las proximidades, en lugar de tecnologías subyacentes que podrían permitir tales comportamientos, haciendo que el acuerdo sea más duradero a medida que las tecnologías evolucionen. El Acuerdo de Incidentes en el Mar también requiere que los estados notifiquen a la otra parte las maniobras peligrosas con antelación, que podrían ser reutilizadas para la notificación de incidentes peligrosos de IA o el inicio de grandes carreras de entrenamiento. El Tratado sobre el Espacio Ultraterrestre es otro modelo útil. Permite a los estados desarrollar poderosas capacidades pero limita cómo se utilizan: A los países no se les permite posicionar armas nucleares o bases militares en el espacio. Además, los países son considerados responsables de las actividades de sus entidades comerciales, creando incentivos para que los gobiernos obliguen a un comportamiento responsable del sector privado en el espacio. Si el país responsable de un sistema catastrófice de IA fuera considerado responsable por la comunidad internacional, entonces naciones como China que están coqueteando con la catástrofe de IA pueden ser incentivadas a comportarse de manera diferente.

En segundo lugar, los gobiernos deberían exigir evaluaciones de riesgo por parte de las empresas, similares a las realizadas para la investigación biológica peligrosa. En particular, los gobiernos deberían considerar la posibilidad de exigir a las empresas que desarrollen sistemas avanzados de IA para uso comercial que realicen evaluaciones rigurosas de los riesgos previos al despliegue en instalaciones seguras. Si los científicos desarrollaran un sistema de IA que pudiera ser responsable de un ciberataque masivo, podrían ser mantenidos a estándares similares a los que llevan a cabo investigaciones de ganas de funcionamiento para patógenos letales. La Convención sobre las armas biológicas también ofrece un modelo que puede ser viable para el control internacional de los sistemas de IA, mientras que ningún organismo mundial responsable de las inspecciones y la aplicación de la Convención, la creación de niveles para los laboratorios de preocupación y la separación de poderes entre los organismos encargados de autorizar y cerrar laboratorios puede ser una medida importante.

La gobernanza de la IA es tan espinosa como compleja. Si bien el deseo de copiar y pegar del libro de jugadas nucleares es comprensible, no tendrá éxito en impedir las aplicaciones más peligrosas de los modelos avanzados de IA. La gobernanza nuclear fue una respuesta a la aniquilación nuclear de Hiroshima y Nagasaki. La gente debe esperar que los responsables políticos actúen para regular la IA sin necesidad de experimentar una catástrofe similar.